【ECCV】Counterfactual Intervention Feature Transfer for Visible-Infrared Person Re-identification
Counterfactual Intervention Feature Transfer for Visible-Infrared Person Re-identification
分享人:苏宇欣
研究方向:行人重识别
论文题目:Counterfactual Intervention Feature Transfer for Visible-Infrared Person Re-identification
论文作者:Xulin Li, Yan Lu, Bin Liu, Yating Liu, Guojun Yin, Qi Chu, Jinyang Huang, Feng Zhu, Rui Zhao and Nenghai Yu
作者单位:中国科学技术大学、中国科学院空天信息研究院、上海交通大学
论文摘要:基于图的模型最近在人员重新识别任务中取得了巨大成功,它首先计算不同人之间的图拓扑结构(亲和力),然后在他们之间传递信息以获得更强的特征。但是我们发现现有的基于图的方法在可见红外线行人重识别任务 (VI-ReID) 中存在泛化性差的问题,原因有两个:1) 训练-测试模态平衡差距:这是VI-ReID任务的一个属性,两种模态数据的数量在训练阶段是平衡的,但在推理阶段极不平衡,导致基于图的 VI-ReID 方法的泛化能力较低;2)端到端学习方式对图模块造成的次优拓扑结构: 我们分析主干特征和图特征的联合学习削弱了图拓扑的学习,使其在推理过程中泛化不够。 在本文中,我们提出了一种反事实干预特征转移 (CIFT) 方法来解决这些问题。 具体来说,同构和异构特征传输(H2FT)旨在通过两种独立类型的精心设计的图形模块和不平衡的场景模拟来减少训练-测试模式的平衡差距。此外,还提出了反事实关系干预(Counterfactual Relation Intervention,CRI),利用反事实干预和因果效应工具来突出拓扑结构在整个训练过程中的作用,使图拓扑结构更加可靠。对标准VI-ReID基准的大量实验表明,CIFT 在各种设置下优于最先进的方法。
原文链接: